Uma campanha de desinformação pró-Rússia está usando ferramentas gratuitas de IA para alimentar uma "explosão de conteúdo"

Uma campanha de desinformação pró-Rússia está aproveitando ferramentas de inteligência artificial do consumidor para alimentar uma "explosão de conteúdo" focada em exacerbar as tensões existentes em torno de eleições globais, Ucrânia e imigração, entre outras questões controversas, de acordo com uma nova pesquisa publicada na semana passada .
A campanha, conhecida por muitos nomes, incluindo Operação Sobrecarga e Matryoshka (outros pesquisadores também a associaram à Tempestade-1679 ), está em operação desde 2023 e foi alinhada ao governo russo por vários grupos, incluindo a Microsoft e o Instituto para o Diálogo Estratégico . A campanha dissemina narrativas falsas, personificando veículos de comunicação com o aparente objetivo de semear a divisão em países democráticos. Embora a campanha tenha como alvo públicos em todo o mundo, incluindo os EUA , seu principal alvo tem sido a Ucrânia. Centenas de vídeos manipulados por IA da campanha tentaram alimentar narrativas pró-Rússia.
O relatório descreve como, entre setembro de 2024 e maio de 2025, a quantidade de conteúdo produzido por aqueles que comandam a campanha aumentou drasticamente e está recebendo milhões de visualizações ao redor do mundo.
Em seu relatório, os pesquisadores identificaram 230 peças únicas de conteúdo promovidas pela campanha entre julho de 2023 e junho de 2024, incluindo fotos, vídeos, códigos QR e sites falsos. Nos últimos oito meses, no entanto, a Operação Sobrecarga produziu um total de 587 peças únicas de conteúdo, a maioria delas criadas com a ajuda de ferramentas de IA, disseram os pesquisadores.
Os pesquisadores afirmaram que o aumento no conteúdo foi impulsionado por ferramentas de IA de nível de consumidor, disponíveis gratuitamente online. Esse fácil acesso ajudou a impulsionar a tática da campanha de "amálgama de conteúdo", na qual os responsáveis pela operação conseguiram produzir múltiplas peças de conteúdo promovendo a mesma história graças às ferramentas de IA.
“Isso marca uma mudança em direção a táticas de propaganda mais escaláveis, multilíngues e cada vez mais sofisticadas”, escreveram pesquisadores da Reset Tech, uma organização sem fins lucrativos sediada em Londres que monitora campanhas de desinformação, e da Check First, uma empresa finlandesa de software, no relatório. “A campanha acelerou substancialmente a produção de novos conteúdos nos últimos oito meses, sinalizando uma mudança em direção a métodos de criação de conteúdo mais rápidos e escaláveis.”
Os pesquisadores também ficaram impressionados com a variedade de ferramentas e tipos de conteúdo que a campanha buscava. "O que me surpreendeu foi a diversidade do conteúdo, os diferentes tipos de conteúdo que eles começaram a usar", disse Aleksandra Atanasova, pesquisadora líder em inteligência de código aberto da Reset Tech, à WIRED. "É como se eles tivessem diversificado sua paleta para capturar o máximo de ângulos diferentes dessas histórias. Eles estão criando diferentes tipos de conteúdo, um após o outro."
Atanasova acrescentou que a campanha não parecia estar usando nenhuma ferramenta de IA personalizada para atingir seus objetivos, mas estava usando geradores de voz e imagem com tecnologia de IA que são acessíveis a todos.
Embora tenha sido difícil identificar todas as ferramentas que os agentes da campanha estavam usando, os pesquisadores conseguiram restringir a uma ferramenta em particular: Flux AI.
O Flux AI é um gerador de texto para imagem desenvolvido pela Black Forest Labs, uma empresa alemã fundada por ex-funcionários da Stability AI. Usando a ferramenta de análise de imagens SightEngine, os pesquisadores descobriram uma probabilidade de 99% de que algumas das imagens falsas compartilhadas pela campanha Overload — algumas das quais alegavam mostrar migrantes muçulmanos se rebelando e ateando incêndios em Berlim e Paris — tenham sido criadas usando a geração de imagens do Flux AI.
Os pesquisadores conseguiram então gerar imagens que reproduzem fielmente a estética das imagens publicadas usando prompts que incluíam linguagem discriminatória, como "homens muçulmanos furiosos".
Isso destaca "como os modelos de texto para imagem da IA podem ser usados de forma abusiva para promover o racismo e alimentar estereótipos antimuçulmanos", escreveram os pesquisadores, acrescentando que isso levanta "preocupações éticas sobre como os prompts funcionam em diferentes modelos de geração de IA".
“Incorporamos múltiplas camadas de salvaguardas para ajudar a prevenir o uso indevido ilegal, incluindo metadados de procedência que permitem às plataformas identificar conteúdo gerado por IA, e apoiamos os parceiros na implementação de ferramentas adicionais de moderação e procedência”, escreveu um porta-voz do Black Forest Labs em um e-mail à WIRED. “A prevenção do uso indevido dependerá de camadas de mitigação, bem como da colaboração entre desenvolvedores, plataformas de mídia social e autoridades, e continuamos comprometidos em apoiar esses esforços.”
Atansova disse à WIRED que as imagens que ela e seus colegas revisaram não continham nenhum metadado.
O uso de IA pela Operação Sobrecarga também utiliza tecnologia de clonagem de voz por IA para manipular vídeos e fazer parecer que figuras proeminentes estão dizendo coisas que nunca disseram. O número de vídeos produzidos pela campanha saltou de 150 entre junho de 2023 e julho de 2024 para 367 entre setembro de 2024 e maio de 2025. Os pesquisadores disseram que a maioria dos vídeos nos últimos oito meses utilizou tecnologia de IA para enganar quem os assistiu.
Em um caso, por exemplo, a campanha publicou um vídeo em fevereiro no X que mostrava Isabelle Bourdon, professora sênior e pesquisadora da Universidade de Montpellier, na França, aparentemente incentivando cidadãos alemães a se envolverem em protestos em massa e votarem no partido de extrema direita Alternativa para a Alemanha (AfD) nas eleições federais. A filmagem era falsa: a filmagem foi retirada de um vídeo no canal oficial da universidade no YouTube, onde Bourdon discute um prêmio recente em ciências sociais que ganhou. Mas, no vídeo manipulado, a tecnologia de clonagem de voz por IA fez parecer que ela estava discutindo as eleições alemãs.
O conteúdo gerado por IA produzido pela Operation Overload é compartilhado em mais de 600 canais do Telegram, bem como por contas de bots em plataformas de mídia social como X e Bluesky. Nas últimas semanas, o conteúdo também foi compartilhado no TikTok pela primeira vez. Isso foi detectado pela primeira vez em maio e, embora o número de contas fosse pequeno — apenas 13 —, os vídeos postados foram vistos 3 milhões de vezes antes de a plataforma rebaixar as contas.
"Estamos extremamente vigilantes contra agentes que tentam manipular nossa plataforma e já removemos as contas deste relatório", disse Anna Sopel, porta-voz do TikTok, à WIRED. "Detectamos, interrompemos e trabalhamos para nos antecipar a operações de influência secretas de forma contínua e reportamos nosso progresso de forma transparente todos os meses."
Os pesquisadores ressaltaram que, embora a Bluesky tenha suspendido 65% das contas falsas, "X tomou medidas mínimas, apesar dos inúmeros relatórios sobre a operação e das crescentes evidências de coordenação". X e Bluesky não responderam aos pedidos de comentários.
Depois que o conteúdo falso gerado por IA é criado pela Operation Overload, a campanha faz algo incomum: eles enviam e-mails para centenas de organizações de mídia e verificação de fatos ao redor do mundo, com exemplos de seu conteúdo falso em várias plataformas, junto com solicitações para que os verificadores de fatos investiguem se ele é real ou não.
Embora possa parecer contraintuitivo para uma campanha de desinformação alertar aqueles que tentam combater a desinformação sobre seus esforços, para os agentes pró-Rússia, ter seu conteúdo publicado on-line por um meio de comunicação real — mesmo que esteja coberto com a palavra "FALSO" — é o objetivo final.
De acordo com os pesquisadores, até 170.000 e-mails desse tipo foram enviados para mais de 240 destinatários desde setembro de 2024. As mensagens normalmente continham vários links para o conteúdo gerado por IA, mas o texto do e-mail não foi gerado usando IA, disseram os pesquisadores.
Grupos de desinformação pró-Rússia há muito tempo vêm experimentando o uso de ferramentas de IA para potencializar sua produção. No ano passado, um grupo chamado CopyCop , provavelmente ligado ao governo russo, foi flagrado usando modelos de linguagem de grande porte, ou LLMs, para criar sites falsos projetados para se parecerem com veículos de comunicação legítimos. Embora essas tentativas normalmente não gerem muito tráfego, a promoção nas mídias sociais que as acompanha pode atrair atenção e, em alguns casos, as informações falsas podem acabar no topo dos resultados de busca do Google .
Um relatório recente do American Sunlight Project estimou que as redes de desinformação russas estavam produzindo pelo menos 3 milhões de artigos gerados por IA a cada ano, e que esse conteúdo estava envenenando a saída de chatbots com tecnologia de IA, como o ChatGPT da OpenAI e o Gemini do Google.
Pesquisadores têm mostrado repetidamente como agentes de desinformação estão adotando ferramentas de IA e, à medida que fica cada vez mais difícil para as pessoas diferenciarem conteúdo real de conteúdo gerado por IA, especialistas preveem que o aumento no conteúdo de IA que alimenta campanhas de desinformação continuará.
"Eles já têm a receita que funciona", diz Atanasova. "Eles sabem o que estão fazendo."
wired